Перейти к содержанию

COMPAS

Эта статья была переведена из источника, распространяемого под свободной лицензией, и находится в стадии проработки и развития
Материал из энциклопедии Руниверсалис

Correctional Offender Management Profiling for Alternative Sanctions (COMPAS, с англ. — «Профилирование правонарушителей для применения альтернативных санкций») — программное обеспечение для управления судебными делами и поддержки принятия решений, разработанное и принадлежащее компании Northpointe (ныне Equivant), используемое судами США для оценки вероятности рецидива со стороны обвиняемого[1][2].

COMPAS используется в таких штатах США, как Нью-Йорк, Висконсин, Калифорния и других юрисдикциях[3].

Описание

Программное обеспечение COMPAS использует алгоритм для оценки потенциального риска рецидива преступлений по специально разработанным шкалам. Согласно руководству пользователя COMPAS, шкалы были разработаны с использованием «высокорелевантных» поведенческих и психологических конструктов[4].

Сторонники использования средств искусственного интеллекта в суде утверждают, что алгоритмы сглаживают искажения и ошибки в рассуждениях судей, например, «эффект голодного судьи» (явление, при котором судьи более склонны принимать снисходительные решения после еды)[5].

Критика

Использование проприетарного программного обеспечения, такого как COMPAS, критикуется за то, что, поскольку используемые им алгоритмы являются коммерческой тайной, они не могут быть изучены общественностью и заинтересованными сторонами, что может являться нарушением надлежащей правовой процедуры.

Использование алгоритмов, основанных на машинном обучении, критикуется также за то, что они зависят от данных: если данные предвзяты, программное обеспечение, скорее всего, выдаст предвзятые результаты[6].

В 2016 году Джулия Ангвин[англ.] была соавтором исследования алгоритма, проведённого ProPublica[7]. Было обнаружено, что «чернокожие почти в два раза чаще, чем белые, получают статус „более высокий риск“, но фактически не совершают повторных преступлений», в то же время COMPAS «совершает противоположную ошибку по отношению к белым: они гораздо чаще, чем чернокожие, получают статус „более низкий риск“, но продолжают совершать преступления»[7][8][9]. Исследователи также обнаружили, что только 20 процентов людей, которым алгоритм предсказывал совершение насильственных преступлений, действительно их совершали[7].

Примечания

  1. Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel. A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear. (October 17, 2016).
  2. Aaron M. Bornstein (December 21, 2017). «Are Algorithms Building the New Infrastructure of Racism?» (55).
  3. Kirkpatrick, Keith (2017-01-23). «It's not the algorithm, it's the data» (en). Communications of the ACM 60 (2): 21–23. doi:10.1145/3022181.
  4. Northpointe A Practitioner's Guide to COMPAS Core (15 March 2015).
  5. (May 2022) «Beware the Lure of Narratives: "Hungry Judges" Should Not Motivate the Use of "Artificial Intelligence" in Law» (en). German Law Journal 23 (4): 452–464. doi:10.1017/glj.2022.32. ISSN 2071-8322.
  6. O'Neil, Cathy. Weapons of Math Destruction. — Crown, 2016. — P. 87. — ISBN 978-0-553-41881-1.
  7. 7,0 7,1 7,2 (2016-05-23) «Machine Bias». ProPublica.
  8. Yong, Ed. Популярный алгоритм не лучше предсказывает преступления, чем случайные люди (17 января 2018).
  9. Israni, Ellora. Когда алгоритм помогает отправить вас в тюрьму (Мнение), The New York Times (26 октября 2017).